A. LE PRIME DEFINIZIONI SULLE MATRICI

Tutto sul capitolo delle matrici


A1. Matrice

Matrice

Definizione di matrice, matrice quadrata, l'insieme delle matrici, matrice nulla. L'insieme delle matrici come -spazio vettoriale con le operazioni di somma interna e scalamento; Matrici triangolari superiori (e l'insieme delle matrici triangolari superiori come sottospazio vettoriale); Definizione della diagonale principale di una matrice; Matrici simmetriche ed antisimmetriche; Matrice identità; Matrice inversa e l'invertibilità delle matrici.


1. Definizione di Matrice

Definizione 1 (matrice a coefficienti in ).

Siano ; allora si definisce una matrice a coefficienti in come una tabella rettangolare di elementi del tipo: Dove ciascun coefficiente è un numero in . Per convenzione i numeri (indici) iniziano con .
Diciamo che il coefficiente è di posto .

Esempio 2 (Esempio 1.1.).

La seguente è una matrice .
Scegliamo qualche coefficiente: Ovviamente si nota che NON è sempre vero che ; infatti qui abbiamo

-esima riga e colonna della matrice

Sia una matrice a coefficienti reali. Allora definiamo le seguenti:

Definizione 3 (riga e colonna -esima di una matrice).

Per ogni la -esima riga è la matrice Per ogni la -esima colonna è la matrice

L'insieme delle matrici

Definizione 4 (l'insieme delle matrici ).

Dati , ove , denotiamo l'insieme delle matrici a coefficienti in con

Osservazione 5 ( diventa un -spazio vettoriale).

Notiamo che con le operazioni di somma interna e di prodotto per uno scalare definite in Operazioni basilari con matrici, è uno spazio vettoriale.

2. Famiglie di matrici

Matrici quadrate

Definizione 6 (matrice quadrata di ordine ).

Una matrice si dice quadrata se il numero delle righe () coincide con il suo numero delle colonne (), ovvero .

Inoltre per denotare l'insieme delle matrici quadrate si scrive ove .

Si osserva che nel caso delle matrici quadrate è possibile definire la diagonale principale come la parte di data dalle entrate di posto .

Esempio 7 (Esempio 2.1.).

La seguente è una matrice quadrata
La diagonale principale di sarebbe .

Matrici nulle

Definizione 8 (matrice nulla).

Una matrice nulla è è la matrice le cui entrate (o coefficienti) sono tutte nulle, .

Matrici triangolari superiori

Definizione 9 (le matrici triangolari superiori).

Si definisce l'insieme delle matrici triangolari superiori come ovvero una matrice quadrata del tipo Ovviamente è possibile generalizzare per le matrici quadrate .

Osservazione 10 (Osservazione 2.1.).

Notiamo che questo insieme è un sottoinsieme di ; Infatti se l'insieme delle matrici è un -spazio vettoriale (Spazi Vettoriali, DEF 1.), allora è un sottospazio vettoriale (Sottospazi Vettoriali, DEF 1.).
Infatti valgono le seguenti:

  1. La matrice nulla appartiene anche a .
  2. Le operazioni di somma e di scalamento sono chiuse; ovvero e E' possibile verificare 2. verificando che la combinazione lineare di appartiene anch'esso a .

Questa osservazione è analoga per e .

Matrici simmetriche e antisimmetriche

Osservazione 11 (preambolo).

Considerando da quanto detto in Operazioni particolari con matrici (OSS 1.1.), abbiamo notato che non ha sempre senso chiedersi se la trasposta di una matrice è uguale alla matrice stessa, ovvero ¿tuttavia questo acquisisce significato quando consideriamo le matrici quadrate appartenenti a .

Esempio 12 (Esempio 2.2.).

Prendo una matrice che chiamo .
Sapendo che alla prima riga ho fissato , allora in questo modo ho già fissato , in quanto voglio che . (ovvero che la trasposta della prima riga sia uguale alla prima colonna).
Il procedimento si ripete per , dove i punti segnati con possono essere sostituiti con qualsiasi valori. Per convenienza inseriremo con dei numeri crescenti, ovvero (e alla fine ). Alla fine otteniamo
che soddisfa . Inoltre osserviamo che questa matrice è simmetrica alla diagonale.

Definizione 13 (matrice simmetrica e antisimmetrica).

Allora definiamo una matrice :
Simmetrica se vale che Antisimmetrica se vale che

Osservazione 14 (Osservazione 2.3.).

Osservo una peculiarità delle matrici antisimmetriche; infatti se voglio costruirne una mi accorgo che tutte le entrate della diagonale principale devono essere nulle, in quanto l'unico numero che rimane uguale quando moltiplicato per è .

Osservazione 15 (Osservazione 2.4.).

Notiamo che le matrici nulle e quadrate sono le uniche matrici che sono sia antisimmetriche che simmetriche. Infatti, e .

Matrice unità (o identità)

Osservazione 16 (preambolo).

Considerando da quanto detto e notato per quanto riguarda il prodotto tra matrici (Operazioni particolari con matrici), possiamo definire una matrice che comporta come il numero dei numeri reali per questa suddetta operazione. (Operazioni particolari con matrici, PROP 2.4.3.)

Definizione 17 (matrice identità di ordine ).

Sia e , allora la matrice unità (o identità) è quella matrice quadrata appartenente a le cui entrate sono tutte nulle, fuorché quelle della diagonale principale, che sono tutti uguali a . Denotiamo questa matrice con 𝟙ove 𝟙

Matrice inversa

Osservazione 18 (osservazione sui numeri reali).

Nei dei numeri reali , dato un diciamo che un altro numero è l'inversa di se è vera che e è unica. Infatti questo è esattamente l'assioma M3) dei numeri reali (Assiomi dei Numeri Reali).

Definizione 19 (matrice inversa).

Allora, tracciando un parallelismo tra i numeri reali e le il prodotto tra matrici (Operazioni particolari con matrici), chiamiamo la matrice quadrata invertibile se esiste una matrice tale che valga 𝟙che chiamiamo

Proposizione 20 (le proprietà della matrice inversa).

Prendendo , valgono le seguenti proprietà:

  1. Se è invertibile, allora la sua inversa è unica.
  2. Se sono invertibili allora invertibile, la quale inversa sarebbe .

#Dimostrazione
DIMOSTRAZIONE della proposizione 2.1..

  1. Prendiamo per assurdo inverse di .
    Allora per definizione𝟙𝟙allora 𝟙𝟙quindi per proprietà transitiva che è assurdo.
  2. Qui basta fare dei calcoli per verificare che è . Ovvero basta verificare che 𝟙 (e viceversa); 𝟙𝟙𝟙𝟙#Osservazione
    Osservazione (Osservazione 2.7.).

    L'analogia tra l'invertibilità rispetto al prodotto definito in e l'invertibilità rispetto al prodotto righe per colonne di matrici NON si estende fino al punto di poter dire che OGNI matrice non-nulla è invertibile. Infatti si propone il seguente controesempio.

Esempio 21 (Esempio 2.3.).

Considero la seguente matrice : la matrice non è invertibile.

Infatti, per assurdo suppongo che esista . Allora Allora per definizione deve valere Prendiamo le entrate e . Per definizione del prodotto righe per colonne abbiamo: Ma questo implicherebbe che che è un assurdo, in quanto .

Minore ij-esimo di una matrice

Definizione 22 (Minore ij-esimo di una matrice).

Sia , siano dei valori fissati che rappresentano gli indici.
Definiamo dunque il minore ij-esimo della matrice A come la sottomatrice ottenuta eliminando la riga i-esima e la colonna j-esima.

Esercizio 23 (Esempio 2.7.1.).

Sia ; allora il minore di -esimo è

TRUCCO. Un "trucco" grafico che può essere utile di determinare il minore è quello di prendere la matrice originale, sbarrare la riga -esima e la colonna -esima, poi infine di considerare solo ciò che rimane.
Pasted image 20231121155840.png

A2. Operazioni semplici con matrici

Operazioni basilari con matrici
Operazioni basilari con matrici

Definizioni di operazioni con matrici; somma interna , prodotto esterno (scalamento) , l'insieme delle matrici come -spazio vettoriale con queste operazioni.


0. Preambolo

Avendo definito la Matrice, andiamo a introdurre delle operazioni con delle matrici al fine di rendere l'insieme delle matrici (Matrice, DEF 1.2.) un -spazio vettoriale.

1. Somma interna

DEF 1. Siano , definiamo la somma delle matrici e e lo denotiamo ; per definire questa nuova matrice data dalla somma, definiamo ogni sua entrata. Quindi l'entrata di posto di è data da: Qui si utilizza il fatto che per descrivere una matrice è sufficiente determinare come ottenere ciascuna delle sue entrate.

ESEMPIO 1.1. OSS 1.1. La matrice nulla (Matrice, DEF 2.2.) è in effetti l'elemento neutro della somma tra matrici. Infatti questo sarà fondamentale per dimostrare che l'insieme delle matrici è uno -spazio vettoriale (Spazi Vettoriali).

2. Prodotto per scalare (scalamento)

DEF 2. Sia e ; definiamo allora il prodotto (o la moltiplicazione) per uno scalare per , come la matrice , le cui entrate sono ottenute facendoESEMPIO 2.1.

A3. Cenni a concetti avanzati sui spazi vettoriali

Sistemi di generatori (cenni)
Sistemi di generatori (cenni)

Cenno al concetto dei sistemi di generatori e combinazione lineare; Matrice come combinazione lineare di sistemi di generatori, indipendenza lineare


Premessa

Questo capitolo è un semplice cenno ai concetti di combinazione lineare, sistemi di generatori e indipendenza lineare applicato alle matrici; in seguito questi temi verranno approfonditi con Spazi Vettoriali.

0. Combinazione lineare

DEF 0. Per combinazione lineare si intende l'espressione per cui prendo una serie di vettori dall'-spazio vettoriale (Spazi Vettoriali, DEF 1., DEF 1.1.), scalo ciascuna di essa per uno scalare e li sommo; quindi stiamo parlando di

1. Sistemi di generatori

Consideriamo una matrice (Matrice, DEF 1.), . Consideriamo Ora consideriamo 4 matrici "speciali", ovvero infatti queste matrici hanno tutte le entrate nulle (), fuorché una, la quale uguale ad uno ().

Consideriamo allora la seguente combinazione lineare di queste quattro matrici:che secondo dei calcoli diventa proprio , ovvero Si può ripetere questa costruzione, qualsiasi sia matrice ; infatti se allora DEF 1. In questo diciamo che sono un sistema di generatori di .

OSS 1.1. Notiamo che questo ragionamento può essere formulato allo stesso modo per qualsiasi insieme di matrici : abbiamo quindi "dimostrato" il seguente:
PROP 1.1. Se consideriamo l'insieme delle matrici che sono costruite nel seguente modo: esse hanno tutte le entrate nulle fuorché una, la quale uguale ad ; allora tale insieme è un sistema di generatori per .

2. Indipendenza lineare

Considerando ancora le matrici quadrate , ne consideriamo la matrice nulla che può essere scritta come la combinazione lineare (considerando come i sistemi di generatori di ): Si vede che non c'è nessun altro modo di ottenere la matrice nulla, se non di impostare ogni coefficiente . Infatti quindi affinché valga la sovrastante, .

DEF 2. In questo caso diciamo che queste quattro matrici sono linearmente indipendenti; ovvero che l'unico modo di ottenere la matrice nulla mediante la combinazione lineare di queste matrici è quella di imporre tutti i coefficienti nulli.
Questi ragionamenti possono essere formulati (e generalizzati) anche per matrici .

OSS 2.1. Se ho allora la per ottenere (la matrice nulla) è necessaria fare la seguente combinazione lineare: e i coefficienti non sono nulli; pertanto non sono linearmente indipendenti.

A4. Operazioni avanzate con matrici

Operazioni particolari con matrici
Operazioni particolari con matrici

Trasposta di una matrice (definizione di matrice simmetrica e antisimmetrica). Definizione di prodotto tra due matrici. Esempi scelti del prodotto righe per colonne. Proprietà del prodotto tra matrici.


1. Matrice trasposta


traspórre (ant. transpórre) v. tr. [dal lat. transponĕre, comp. di trans- «trans-» e ponĕre «porre»] (coniug. come porre). – 1. Porre, collocare una cosa dopo un’altra, invertendo l’ordine in cui tali cose erano inizialmente: il copista per errore ha trasposto i versi 24-25 dopo i versi 26-30; col senso più generico di porre in diverso ordine: il periodo potrebbe migliorarsi notevolmente trasponendo qualche parola; se necessario si potrà t. qualche numero del programma; t. i fili di una linea telefonica.


DEF 1. Sia ; definiamo la trasposta di come quella matrice, che indichiamo con , che è un elemento di , determinato dalla seguente proprietà: "l'entrata di posto di è uguale all'entrata di posto di ". In parole povere, scambiamo le righe della matrice con le colonne (invertendo così l'ordine).
Quindi

ESEMPIO 1.1.
Se prendiamo allora si ha OSS 1.1. Notiamo che generalmente non ha senso chiedersi se in quanto in una buona parte dei casi (ovvero delle matrici non quadrate (Matrice, DEF 2.1.)) il numero delle colonne e il numero delle righe vengono scambiate (per definizione); infatti se è una matrice , allora sarà una matrice di .

1.1. Proprietà della trasposta

PROP 1.1. Prendendo allora si verificano le due proprietà: DIMOSTRAZIONE.
Innanzitutto osserviamo che ha senso chiedersi se queste proprietà sono valide, in quanto per definizione in Operazioni basilari con matrici, sommando due matrici si ottiene un altra matrice ; infatti da un lato si sommano prima due matrici poi per trasporlo in una matrice , dall'altro si sommano due matrici trasposte (ottenendo ovviamente un altra matrice ).

Per dimostrare la (i), dimostriamo che tutte le entrate della matrice nel membro sinistro dell'uguaglianza e nel membro destro sono, infatti, effettivamente uguali.
Per farlo fissiamo le e prendiamo le entrate di posto . Allora E notiamo che (*) e () sono uguali, completando così la dimostrazione.

Per la dimostrazione di (ii) basta fissare e considerare le entrate di posto ;

2. Prodotto righe per colonne

Ora andiamo a introdurre una nuova operazione tra matrici e per farlo è opportuno considerare una specie di analogia, una situazione che ci aiuti a comprendere il concetto.

2.1. Definizione analogica

Immaginiamo di trovarci in un negozio A che presenta i seguenti prezzi (tralasciando questioni economico-finanziarie):

  • Costo pasta:
  • Costo latte:
  • Costo uova:
    Ora supponiamo di dover comprare quantità di pasta, latte e uova; ora vogliamo calcolare il costo totale, che sarebbe una specie di "combinazione lineare" dove i coefficienti scalari vengono rappresentati dai quantitativi, i vettori invece dai costi. Quindi abbiamo Ora definiamo il prodotto righe per colonne come Adesso supponiamo di aver trovato un altro negozio B che offre altri prezzi ancora più competitivi; ovvero quindi per tenere sotto controllo i due totali di spesa, potrei "impacchettare" le due righe dei costi unitari in una matrice: e sarebbe ragionevole definire il prodotto di: come la matrice dove la prima riga rappresenta il costo totale del primo negozio e la seconda riga invece il costo totale del secondo negozio: Ricapitolando, abbiamo moltiplicato una matrice 2x3 per una matrice 3x1 e abbiamo ottenuto una matrice 2x1.
    In altre parole, la matrice ottenuta dalla moltiplicazione è quella matrice le cui entrate sono date dalla moltiplicazione di ciascuna delle due righe della prima matrice con la colonna della seconda matrice.
    In questo modo, se volessimo aggiungere la seconda colonna di quantitativi , quello che andremmo a ottenere è una situazione del tipo: che diventa dove a sinistra abbiamo i quantitativi della prima colonna, a destra i quantitativi della seconda colonna .

2.2. Definizione generale

DEF 2.2.1. Siano , ; allora definiamo il prodotto riga per colonna come "la combinazione lineare" data da

DEF 2.2.2. In generale, se e allora definiamo il prodotto come la matrice la cui entrata di posto è data dalla seguente:

OSS 2.2.1. Notiamo che il prodotto tra due matrici è definita solo se il numero di colonne di coincide con il numero di righe di .
Inoltre, la "matrice risultante" diventa una matrice (ove è il numero delle colonne di , il numero di righe di ).

2.3. Esempi

Diamo alcuni esempi-esercizi.
ESEMPIO 2.3.1. usando le definizioni otteniamo poi calcolando tutti i prodotti righe per colonne, infine abbiamo ESEMPIO 2.3.2.

OSS 2.3.2.a.
Notiamo di aver ottenuto la stessa matrice a destra.

ESEMPIO 2.3.3. facendo i conti,

OSS 2.3.3.a.
Come appena notato prima, la seconda matrice sembra di comportarsi come il numero ; infatti se lo moltiplichi a destra o a sinistra, ottieni la stessa matrice moltiplicata.
Infatti questa matrice verrà definita come la matrice identità (DEF 2.5.) 𝟙.

ESEMPIO 2.3.4.
Consideriamo
Posso fare sia che in quanto abbiamo i tali requisiti. Allorae

OSS 2.3.4.a.
Notiamo che il prodotto delle matrici non è un'operazione commutativa; questo determina delle forti conseguenze, in particolare nella meccanica quantistica con il principio di indeterminazione di Heisenberg.

2.4. Proprietà

Il prodotto righe per colonne soddisfa alcune proprietà:

PROP 2.4.1. Siano e . Allora valgono le seguenti uguaglianze: la 1. si chiama "proprietà distributiva a destra", la 2. invece "proprietà distributiva a sinistra". Utilizziamo questa nomenclatura in quanto sappiamo che l'operazione di prodotto righe per colonna NON è commutativa; quindi non si è sempre certi che questa proprietà valga da entrambi i lati (in questo caso sì).

PROP 2.4.2. Sia e ; allora vale che ATTENZIONE! Invece bisogna stare attenti che in quanto essa non è definita. Infatti a destra si vede che proviamo a moltiplicare una matrice e ; a meno che , questa moltiplicazione NON è ben posta.

DIMOSTRAZIONE. Per mostrare la forma corretta, ovvero mostriamo che tutte le entrate del membro destro sono uguali a tutte le entrati del membro sinistro; siano dunque e . Allora: àe questo mostra che le due sono uguali.

PROP 2.4.3. Sia , allora 𝟙𝟙Per 𝟙 si intende la matrice identità (Matrice, DEF 2.5.).

OSS 2.4.3.a Nel caso delle matrici quadrate , la matrice unità 𝟙 funge dunque da elemento neutro per il prodotto righe per colonne. Ovvero 𝟙𝟙e possiamo denominarlo come elemento neutro in quanto tutti gli elementi in questa uguaglianza sono appartenenti a .

PROP 2.4.4. Sia , allora vale che
DIMOSTRAZIONE della proposizione 2.4.4.
La dimostrazione è lasciata da svolgere al lettore.

A5. Matrice simile

Definizione di Matrice Simile
Definizione di Matrice Simile

Definizione di due matrici simili.


1. Definizione di Matrici Simili

Definizione 1 (matrici simili).

Siano due matrici quadrate (Definizione 6 (matrice quadrata di ordine )).
si dicono simili se esiste una matrice invertibile tale che valga

A6. Matrice Diagonale

Definizione di Matrice Diagonale e Applicazione Diagonalizzabile
Definizione di Matrice Diagonale e Applicazione Diagonalizzabile

Definizione di una matrice quadrata diagonale e di un'applicazione lineare diagonalizzabile.


1. Matrice quadrata diagonale

Definizione 1 (matrice quadrata diagonale).

Sia una matrice quadrata (Definizione 6 (matrice quadrata di ordine )).
si dice anche diagonale se tutti gli elementi non-nulli appartengono solo alla diagonale principale della matrice (Matrice).

2. Applicazione Lineare Diagonalizzabile

Definizione 2 (applicazione lineare diagonalizzabile).
Osservazione 3 (significato della diagonalizzabilità).

Dire che la matrice associata è diagonale è equivalente a dire che ogni immagine dell'elemento della base è autovettore per un certo autovalore .
Infatti se è diagonale, allora è una matrice del tipo
Allora, per definizione, ogni immagine del vettore di è del tipo
Ovvero è elemento dello spettro di .


B. OPERAZIONI CON LE MATRICI

B1. L'algoritmo di Gauß

Algoritmo di Gauß
Algoritmo di Gauß

Definizioni preliminari per la descrizione dell'algoritmo di Gauß (Matrice completa e le operazioni elementari OE). Descrizione dell'algoritmo di Gauß per rendere un sistema lineare in un sistema lineare equivalente a scala come un programma.


1. Matrice completa di un sistema lineare

Definizione 1 (matrice completa di un sistema lineare).

Consideriamo un sistema lineare di forma allora definiamo la matrice ottenuta aggiungendo alla matrice la colonna data dai termini noti come la matrice completa di questo sistema lineare. La denotiamo con N. B. Il segno sbarra per "differenziare" i termini noti dai coefficienti ha uno scopo puramente grafico.

2. Operazioni elementari OE

Ora definiamo una serie di operazioni elementari (OE) che sono in grado di trasformare un sistema lineare di forma in un altro equivalente (Definizione 9 (sistemi lineari equivalenti)).

Definizione 2 (le operazioni elementari).

OE1. L'operazione scambia equazioni
Dati due indici scambiamo di posto l'equazione -esima e -esima.
Questo corrisponde a scambiare la riga -esima con la riga -esima della matrice .

OE2. L'operazione scala equazioni
Dato l'indice e uno scalare , moltiplichiamo l'-esima equazione per . Precisamente questo corrisponde a moltiplicare per l'-esima riga della matrice completa .

OE3. L'operazione somma equazioni
Dati due indici e uno scalare non nullo , sommiamo alla -esima equazione alla -esima equazione la -esima equazione dopo averla moltiplicata per .
Ovvero questo corrisponde a sommare alla riga -esima della matrice completa volte la -esima riga.

Osservazione 3 (Osservazione 2.1.).

Osserviamo che queste operazioni determinano dei sistemi lineari equivalenti in quanto queste operazioni sono completamente invertibili; infatti partendo da un sistema lineare "trasformato" mediante le OE., possiamo tornare al sistema originario.

Proposizione 4 (le OE trasformano sistemi in sistemi equivalenti).

Se applico ad un sistema lineare qualsiasi una di queste operazione elementari, allora ottengo un sistema equivalente.

Proposizione 5 (con le OE posso portare un sistema a scala).

Dato un qualsiasi sistema lineare arbitrario, posso portarlo ad un sistema a scala con queste operazioni elementari OE. Infatti mostreremo un algoritmo (Nozioni Fondamentali di Programmazione) che è in grado di "gradinizzare" (ovvero portare a scala) una matrice completa qualsiasi.

3. L'algoritmo di Gauß

Premesse storiche

Riprendendo la proposizione 2.2. della sezione precedente, abbiamo appena enunciato che siamo in grado di portare un sistema lineare non a scala in un sistema lineare a scala; dimostreremo questa proposizione descrivendo uno degli algoritmi più noti dell'Algebra Lineare, ovvero l'algoritmo di Gauß.


NOTIZIE STORICHE. (Trascrizione appunti + approfondimenti personali)
Questo algoritmo è stato attribuito al noto matematico C. F. Gauß (1777-1855) in quanto fu proprio lui a formalizzare questo procedimento in latino; tuttavia ciò non significa che il matematico Gauß inventò questo algoritmo, in quanto ci sono evidenze storiche che prima esistevano già descrizioni su questo procedimento. Infatti, esiste un antico manoscritto cinese (I Capitoli nove arte matematica/九章算術, circa 179) che descrive un principio simile a quello che andremo a descrivere.
Per ulteriori approfondimenti consultare le seguenti pagine:
https://mathshistory.st-andrews.ac.uk/HistTopics/Matrices_and_determinants/
https://it.frwiki.wiki/wiki/Les_Neuf_Chapitres_sur_l%27art_math%C3%A9matique


Descrizione dell'algoritmo come programma

OBIETTIVO.
Come detto prima, il nostro obiettivo è quello di "gradinizzare" un sistema lineare qualsiasi che non sia a scala.

INPUT.
Quindi il nostro input è un sistema lineare qualsiasi del tipo che lo "condenseremo" nella matrice completa .

OUTPUT.
Vogliamo ottenere la matrice completa tale che èALGORITMO.
Il nostro procedimento si articola in una serie di "istruzioni" da eseguire per un certo numero di volte.


  1. Determino il valore come l'indice di colonna minimo per cui abbiamo una colonna non nulla di . Ovvero
  2. Determino l'indice tale per cui abbiamo l'elemento (l'esistenza di un tale deriva dalla scelta di )
  3. Scambio le righe con la -esima; in questo modo sarà possibile supporre che (OE1)
  4. Voglio assicurarmi che non ho altre colonne nulle in (eccetto ovviamente ).
    1. Moltiplico la riga per (OE2)
    2. Sommo alle altre righe un multiplo opportuno di . Ovvero . (OE3)
  5. Se la matrice ottenuta non è a scala, ripeto lo stesso procedimento a partire da 1. sulla sottomatrice (ovvero una "parte selezionata" della matrice) con righe e colonne , del tipo

Queste operazioni corrispondono a:


Osservazione 6 (l'algoritmo è valido e ben posto?).

Affinché questo algoritmo sia valido e ben posto, devo assicurarmi che:

  1. Questo deve eventualmente terminare in un certo tempo finito; questo accade in quanto prima o poi le colonne e le righe delle sottomatrici della 5. eventualmente si "esauriranno" e avremmo una matrice a scala.
  2. Questo restituisce l'output corretto, come prescritto dalle specificazione. Anche questo si verifica in quanto ogni volta che raggiungo e svolgo il step 4., ho "gradinizzato" una scala.

Esempio di applicazione.

Come un programmatore fa dei "unit tests" su un programma o algoritmo, tentiamo di applicare questo principio appena descritto ad un sistema lineare.

Esempio 7 (Esempio 3.1.).

Consideriamo il sistema lineare dato da Ora ci applichiamo l'algoritmo di Gauß. èDunque otteniamo la seguente matrice: che è a scala.

ESERCIZIO PERSONALE. Questo esercizio prevede un collegamento con l'informatica, in particolare con la programmazione.
A) Scrivere uno pseudocodice che "emula" questo principio
B) Implementare tale pseudocodice in C/Python
C) Calcolare la "complessità" di questo codice

B2. Rango di una matrice

Rango
Rango

Definizione di rango, osservazioni, esempi.


1. Definizione di rango

Osservazione 1 (le colonne di una matrice vivono in ).

Sia , allora le colonne di sono tutti elementi di . Dunque

Definizione 2 (rango).

Sia ; definiamo il rango della matrice (Definizione 1 (matrice a coefficienti in )) e lo denotiamo con oppure (la seconda è la dicitura internazionale) come la dimensione (Definizione 1 (dimensione di un spazio vettoriale)) dello span (Lemma 4 (lo span è sempre un sottospazio vettoriale)) dello sottospazio generato dalle colonne di :

2. Osservazioni sul rango

Osservazione 3 (Osservazione 2.1. (il rango è limitato da due numeri)).

Se allora

Osservazione 4 (Osservazione 2.2.).

Noteremo che questa definizione non cambierebbe, se invece di considerare le colonne considerassimo le righe.

3. Esempio

Esempio 5 (matrice 2x3).

Consideriamo la matrice
Dalla definizione di rango e dall'osservazione 1.2. sappiamo che
Dato che tutte le colonne sono linearmente indipendenti.
Invece se due colonne fossero invece linearmente dipendenti, quindi proporzionali tra di loro (in quanto una di queste sono ottenibili mediante lo scalamento dell'altro), allora avremmo

Esempio 6 (matrice identità 𝟙).

Sia 𝟙 la matrice identità x (Definizione 17 (matrice identità di ordine )), abbiamo
𝟙

4. Teoremi

Per dei teoremi vedere questa pagina: Teoremi su Rango

B3. Teoremi sul rango

Teoremi sulle Basi
Teoremi sulle Basi

Tutti i teoremi sulle basi: teorema di estrazione di una base, teorema del completamento/estensione, lemma di Steinitz, teorema sul numero di elementi delle basi. Cenni/idee alle dimostrazioni di questi teoremi


1. Teorema di estrazione di una base

Questo primo teorema, come ci suggerisce il titolo, serve per "estrarre" una base da uno spazio vettoriale (Spazi Vettoriali), ovvero di determinarla.

Teorema 1.1. (Teorema di estrazione di una base).

Sia un K-spazio vettoriale, finitamente generato, sia un sistemi di generatori di .
Allora esiste tale che è base di .

#Dimostrazione
DIMOSTRAZIONE del teorema di estrazione (Teorema 1.1. (Teorema di estrazione di una base))
Nota: questa non è una vera e propria dimostrazione, bensì un semplice cenno. Ci si focalizza in particolare su un algoritmo per scopi informatici.
In questa dimostrazione procediamo per costruzione, ovvero troviamo la base mediante il cosiddetto algoritmo dello scarto.
Inoltre supponiamo .

ALGORITMO (dello scarto)

  1. Inizializziamo la "lista vuota" (nel linguaggio C sarebbe un vettore/array, in Python una lista)
  2. Iterare tutti gli elementi di (equiv. for v in V)
    1. Consideriamo di: se , allora passiamo al prossimo; altrimenti aggiungo a .
      ATTENZIONE! Per ovviamente si intende il vettore nullo di .
    2. Consideriamo : se oppure , allora procedere al prossimo; altrimenti aggiungo questo a .
    3. Ripetere fino a .
  3. Alla fine otteniamo una lista che è sicuramente contenuto in che si può dimostrare essere base di (omessa, anche se semplice da dimostrare).

PSEUDOCODICE (quasi-Python)

def TrovaBase(vettore_nullo, sistema_di_generatori):
	B = []
	for v in sistema_di_generatori:
		if v == vettore_nullo or v in span(B):
			continue
		else:
			B.append(v)
		# Alternativamente si può solo negare la condizione e scrivere
		if v != vettore_nullo and v not in span(B):
			B.append(v)
	return B

2. Teorema del completamento

Ora consideriamo un teorema "speculare" a parte, ovvero a partire da un insieme di vettori linearmente indipendenti possiamo avere una base aggiungendo degli elementi (o anche nessuno).

Teorema 2.1. (Teorema del completamento/estensione).

Sia un K-spazio vettoriale, finitamente generato, siano elementi di linearmente indipendenti.
Allora esiste una base di tale che
in parole gli elementi possono essere "completati" per formare una base.

#Dimostrazione
DIMOSTRAZIONE del teorema di estensione/completamento (Teorema 2.1. (Teorema del completamento/estensione))
Nota: anche qui diamo semplicemente un'idea della dimostrazione.
Dato che è finitamente generato, esiste un insieme di vettori di che è sistema di generatori per .
Allora se considero , vedo che anche questo è un sistema di generatori per . Infatti aggiungendo qualsiasi vettore ad un sistema di generatori, questo rimane comunque un sistema di generatori.
A quest'ultimo applico l'algoritmo dello scarto, ottenendo una base di , in quanto per come è fatto l'algoritmo "scarto" i vettori linearmente dipendenti.

Connessione tra base e indipendenza lineare

Osservazione 1 (enti minimali e massimali).

Da questi due teoremi osserviamo una relazione tra il concetto di base (Definizione di Base), indipendenza lineare (Dipendenza e Indipendenza Lineare) e sistema di generatori (Combinazione Lineare).
Da un lato abbiamo una base come un sistema di generatori "minimale", ovvero che contiene un numero minimo di vettori; oppure possiamo equivalentemente caratterizzare una base come un insieme di vettori linearmente dipendenti "massimale", ovvero che può essere estesa.

3. Teorema sulla cardinalità delle basi

Ora enunciamo un teorema importante che ci permetterà di definire la dimensione (Definizione 1 (dimensione di un spazio vettoriale)) di un spazio vettoriale.

Lemma di Steinitz

Lemma 2 (di Steinitz.).

Sia un K-spazio vettoriale, finitamente generato, sia una base di .
Allora e per ogni scelta di vettori vale che sono linearmente dipendenti.

#Dimostrazione
DIMOSTRAZIONE del lemma di Steinitz (Lemma 2 (di Steinitz.))
Per ipotesi vale che gli elementi sono elementi di (dunque esprimibili come combinazione lineari della base), ovvero:

Ora consideriamo le coordinate di ogni vettore esprimibile come

Adesso consideriamo la combinazione lineare delle coordinate di , ovvero

Ora consideriamo il sistema lineare omogeneo del tipo

di cui possiamo dimostrare che è compatibile con una una soluzione non (tutta) nulla.

Osservazione 3 (giustificazione dell'ultimo passaggio).

Osserviamo che la matrice dei coefficienti
per ipotesi ha , ovvero è più "lunga" orizzontalmente. Quindi per "accuratezza" la scriviamo come
quindi gradinizzandola con Gauß (Algoritmo di Gauß) abbiamo dei "gradini" più lunghi di un elemento. Allora ho più "parametri liberi" non-nulli, determinando così soluzioni non nulle.

Teorema principale

Teorema 4 (sulla cardinalità delle basi).

Sia un K-spazio vettoriale, finitamente generato, siano e due basi di .
Allora ; ovvero le due basi hanno lo stesso numero di elementi (alt. "cardinalità").

#Dimostrazione
DIMOSTRAZIONE del teorema 3.1. (Teorema 4 (sulla cardinalità delle basi))
Per il lemma di Steinitz (Lemma 2 (di Steinitz.)), abbiamo che questi due insiemi di vettori per essere basi (ovvero linearmente indipendenti e sistemi di generatori), deve valere


C. LA TEORIA DEL DETERMINANTE

C1. Invertire matrici

Invertire Matrici
Invertire Matrici

Metodi per invertire matrici.


0. Preambolo

Nella proposizione 3.1. sul rango (Proposizione 4 (Invertibilità di una matrice)) abbiamo semplicemente dimostrato l'esistenza di (): ma siamo avari di conoscenza e vogliamo sapere tutto, otteniamo dunque un algoritmo per determinare .

1. Manipolazione della matrice con le O.E.

Quindi "procediamo" con la dimostrazione costruttiva di proposizione 3.1. (Proposizione 4 (Invertibilità di una matrice)).
Abbiamo appena visto che per calcolare dobbiamo risolvere tutti i sistemi lineari
Quindi cerchiamo di risolverli tutti in un singolo colpo considerando la matrice 𝟙.
Notiamo che
dove rappresenta la matrice gradinizzata mediante l'algoritmo di Gauß.
Quindi abbiamo una matrice del tipo
Notiamo che mediante le operazioni elementari O.E. possiamo "annullare" la colonna -esima facendo rimanere solo l'elemento .
Ovvero

Ripetendo a ritroso da fino al primo elemento, portiamo nella forma della matrice identità 𝟙.
Quindi applicando queste operazioni a 𝟙 otteniamo una matrice del tipo 𝟙 con una certa matrice .
Ora, la matrice di partenza codificava i sistemi , le cui soluzioni sono le colonne dell'inversa , ricordando che le O.E. non cambiano le soluzioni in quanto queste portano a sistemi lineari equivalenti.
L'ultima matrice codifica i sistemi lineari del tipo 𝟙, le soluzioni di questo ultimo sistema sono le colonne della matrice inversa , ovvero di , il che ci mostra

Esempio

Esempio 1 (Esempio 1.1. Calcolo dell'inversa di una matrice).

Allora vediamo di calcolare l'inversa di una matrice; sia dunque
e vogliamo calcolare l'inversa .
Allora con l'algoritmo appena descritto consideriamo la matrice completa
𝟙Effettuando delle operazioni su questa matrice, in particolare la gradinizzazione mediante l'Algoritmo di Gauß e dopodiché delle operazioni elementari, abbiamo la matrice
𝟙Allora la matrice inversa è

2. Metodo dei cofattori (cenno)

OSS 2.1. Dall'esempio 1.1. (Esempio 1 (Esempio 1.1. Calcolo dell'inversa di una matrice)) noto che la matrice inversa di è esattamente lo stesso con dei numeri e segni scambiati.
Quindi voglio codificare con un singolo numero l'invertibilità di una matrice quadrata, che definiremo come il determinante (Determinante).
Consideriamo ad esempio il caso per le matrici quadrate .
Siano quindi
e
Svolgendo la moltiplicazione righe per colonne (Operazioni particolari con matrici > ^eecbc9), otteniamo
Notiamo che gli elementi e hanno lo stesso numero : dunque da qui abbiamo due risultati:

  1. invertibile se e solo se
  2. se invertibile, allora

3. Metodo dei cofattori (definizione rigorosa)

Per vedere il metodo dei cofattori, andare alla pagina Cofattore di una matrice.

Proposizione 4 (Proposizione 3.1.).

Sia , allora
𝟙(questa vale sempre!)
In particolare set vale che

C2. Determinanti

Determinante
Determinante

Definizione di determinante per matrici quadre 2x2 (cenno); cenno al metodo dei cofattori; definizione per ricorrenza del determinante di una matrice quadra di qualsiasi dimensione; calcolo del determinante di matrici triangolari superiori; regola di Sarrus (definizione di matrici quadre 3x3)


1. Prima definizione (per matrici 2x2)

Definizione 1 (determinante della matrice 2x2).

Sia .
Definisco il determinante di come lo scalare in determinato dalla formula

TRUCCO. Per ricordare questa definizione possiamo fare una sorta di "grafico" per aiutarci, in cui disegniamo la matrice e segniamo la diagonale principale in rosso e l'"anti diagonale" in blu: poi sottraiamo la parte rossa con quella blu.
Pasted image 20231121153551.png

Primi enunciati sul determinante

Quanto abbiamo visto in Invertire Matrici > ^b56a11, questo ci permette di esporre il seguente enunciato:
#Proposizione

Proposizione 2 (invertibilità di una matrice).

Sia , allora
In tal caso

Esempio 3 (esempio 1.1. da "Invertire Matrici").

Sia
Allora
Pertanto

OSS 1.1.1. (Collegamento geometrico) Se consideriamo le colonne di come due vettori colonna che vivono in , poi se supponiamo , allora possiamo rappresentare i vettori sul piano cartesiano . Si può verificare che se è il parallelogrammo determinato da questi due vettori colonna, allora il determinante della matrice è proprio l'area di questo parallelogrammo.
Pasted image 20231121154754.png

2. Definizione di determinante per ricorsione

Definizione 4 (determinante per lo sviluppo lungo la prima colonna).

Sia .
Definisco il determinante di per ricorsione come il seguente:

  • Se : allora
  • Se : allora
    dove ci ricordiamo che rappresenta il minore della matrice (Matrice)

OSS 2.1. Benché questa definizione di determinante sia completamente accettabile, percepiamo che rimane comunque "artificiale": scegliamo proprio di svilupparla lungo la prima colonna.
Infatti con lo sviluppo di Laplace del determinante (Teoremi sul determinante) vedremo che è possibile definire il determinante con lo stesso algoritmo, scegliendo tuttavia di svilupparla lungo un'altra colonna o anche secondo una riga.
Tuttavia dobbiamo aspettare prima di sviluppare dei teoremi sui determinanti per poter definire bene lo sviluppo di Laplace.

Esempio 5 (determinante di matrice 2x2).

Con questa definizione si può "ricavare" la definizione del determinante per una matrice che vive in ; infatti

Esempio 6 (esempio numerico del determinante).

Sia , in particolare
Svolgendo i calcoli necessari viene fuori
La "dimostrazione" (che in realtà è solo un calcolo) di questo è lasciato da svolgere al lettore.

Calcolo del determinante di una matrice triangolare superiore

Proposizione 7 (Determinante di una matrice triangolare superiore).

Se è una matrice triangolare superiore (Definizione 9 (le matrici triangolari superiori)) (quindi ), ovvero del tipo
Allora si ha
in parole "il determinante di una matrice triangolare superiore è la produttoria degli elementi della diagonale principale".

  • Caso :
  • Passo induttivo :
    Supponendo che valga la proposizione per le matrici , allora dimostriamo che valga anche per .
    Allora per lo sviluppo di determinante lungo la prima colonna (Definizione 4 (determinante per lo sviluppo lungo la prima colonna)), abbiamo
    Allora il gioco è fatto perché l'unico termine da "risolvere" è , che è anch'essa una matrice superiore triangolare e vive in (in quanto "togliamo" una riga e una colonna dalla matrice originaria). Pertanto per ipotesi induttiva .
    Allora

3. Regola di Sarrus (per matrici 3x3)

Teorema 8 (determinante di una matrice 3x3 secondo la regola di Sarrus).

Sia ,
allora vale che

TRUCCO. Ovviamente questa regola è utile solo se la visualizziamo graficamente; ciò consiste in prendere la matrice , poi piazzare le prime due colonne e a destra della matrice, poi di segnare le tre diagonali principali a partire da quella principali, le anti diagonali e infine di sommare le diagonali principali poi di sottrarre il risultato con le anti diagonali.
Pasted image 20231121161448.png

C3. Teoremi sui determinanti

Teoremi sul determinante
Teoremi sul determinante

Teoremi sul determinante: prime proprietà (multilinearità, alternanza/antisimmetria, normalizzazione); teorema di caratterizzazione del determinante; corollari vari; teorema di caratterizzazione delle matrici quadrate di rango massimo; sviluppo di Laplace del determinante; teorema di Binet.


1. Le tre proprietà D1, D2, D3

Proposizione 1 (Le proprietà del determinante D).

Il determinante (Definizione 4 (determinante per lo sviluppo lungo la prima colonna)) gode delle seguenti proprietà:

  • D1. (multilinearità)
    Sia , supponendo che (ove )
    allora
    Inoltre supponendo invece per un , allora
    Analogamente la proprietà della multilinearità vale anche quando consideriamo le colonne .
  • D2. (alternanza / antisimmetria)
    Nota: per quanto riguarda questa proprietà bisogna distinguere certi casi per certi campi, ma è irrilevante ai fini nostri.
    Scambiando due righe o colonne di una matrice di posto il determinante cambia di segno, ovvero: siano , allora
    Da questo discende che svolgendo scambi di righe/colonne dobbiamo moltiplicare il determinante per .
  • D3. (normalizzazione)
    Vale che
    𝟙

Possiamo usare queste proprietà come dei "trucchetti" per calcolare certi determinanti.
#Esempio

Esempio 2 (esempio di applicazione "concreta").

Sia , ove in particolare
allora

2. Teorema di caratterizzazione del determinante

Teorema 3 (di caratterizzazione del determinante).

Considerando il determinante come funzione, è l'unica funzione (applicazione lineare)
che soddisfa le proprietà D1, D2, D3 appena elencate. (Proposizione 1 (Le proprietà del determinante D))

La dimostrazione è stata omessa.

3. Corollari dei paragrafi 1,2

Corollario 4 (condizioni di determinante nullo).

Sia .
Per avere il determinante nullo (uguale a 0) si deve verificare una delle due proprietà (o entrambe):
i. Se la matrice ha due righe uguali
ii. Se la matrice ha almeno una riga/colonna nulla
Infatti

Corollario 5 (effetti sul determinante degli OE).

Sia , siano O.E. le cosiddette operazioni elementari (Algoritmo di Gauß > ^8a7c5e, Algoritmo di Gauß > ^1f10d6, Definizione 2 (le operazioni elementari)), allora se è una matrice ottenuta mediante le O.E., allora valgono le seguenti:
i. Se è ottenuta mediante una OE1, allora
ii. Se è ottenuta mediante una OE2 e se è lo scalare per cui si moltiplica la riga/colonna, allora
iii. Se è ottenuta con una OE3 allora

DIMOSTRAZIONE del punto iii. del corollario 3.2. (Corollario 5 (effetti sul determinante degli OE))
Se consideriamo
e
Allora

Corollario 6 (effetti dell'algoritmo di Gauß sul determinante).

Sia , sia la matrice gradinizzata a scala mediante Gauß (Algoritmo di Gauß), allora
per un certo .
In particolare
Inoltre se gradinizzandola non effettuiamo la normalizzazione degli elementi pivot, allora
dove rappresenta il numero di scambi di righe effettuate.

C4. Cofattore di una matrice

Cofattore di una matrice
Cofattore di una matrice

Definizione di cofattore ij-esimo di una matrice; definizione della matrice dei cofattori di A; calcolo dell'inversa mediante il cofattore


1. Definizione di cofattore ij-esimo

Definizione 1 (Definizione 1.1. (cofattore ij-esimo di una matrice)).

Sia , siano , .
Definisco il cofattore ij-esimo di come lo scalare in

2. Definizione della matrice dei cofattori

Definizione 2 (matrice dei cofattori di una matrice).

Sia , allora la matrice dei cofattori di è la matrice che indichiamo come